iT邦幫忙

2024 iThome 鐵人賽

DAY 4
0

今天是第二天來介紹CNN,鐵人挑戰也來到第四天!
今天要介紹的是激活函數(Activation Function)

激活函數是引入非線性的關鍵,可以讓模型學習複雜的特徵和模式。
CNN中最常用的激活函數是 ReLU(Rectified Linear Unit),其作用不難:

把輸入值中的負數變為0,然後正數保持不變。這個過程引入了非線性,也可以加速模型的訓練,並減少梯度消失的問題。另外,還有其他的激活函數,像是Leaky ReLU、Sigmoid和Tanh,不同的激活函數適用在不同的任務和情況。

激活函數的選擇:
隱藏層:ReLU、Leaky ReLU、PReLU、ELU 和 Swish這幾個是常見的選擇。ReLU 是最常用的,因為它計算簡單且可以減少梯度消失的問題。

輸出層:二元分類問題通常使用 Sigmoid,多分類問題就會使用 Softmax,回歸問題則可以使用線性激活(即無激活函數)。

每個激活函數都有他們適用的場景和限制,選擇時我們要考慮問題的類型、數據的特性和模型的結構!


上一篇
CNN day 1—卷基層
下一篇
CNN day 3—池化層
系列文
用AI做圖像super resolution 或用AI做圖像中的物件消除30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言